Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).
Hoje publicamos a quarta parte do Capítulo 3, que é publicado em 5 partes.
Seleção e tradução de Júlio Marques Mota
7 min de leitura
Texto 41 D – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 3 – Consultando o Registo- a IA Falha Consistentemente com o Utilizador Comum (4/5)
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
em 2 de Junho de 2025 (original aqui)
Índice
Sumário Executivo
Capítulo 1: Os Falsos Deuses da IA
Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA
Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.
—-
Capítulo 3: Consultando o Registo- a IA Falha Consistentemente com o Utilizador Comum (4/5)
4. O mito da produtividade esconde uma verdade fundamental: os benefícios da IA são acumulados pelas empresas, não são destinados aos trabalhadores ou à população em geral
Os CEOs de empresas de IA têm afirmado que a tecnologia levará a um crescimento de produtividade inédito e transformador. Como disse o CEO da OpenAI, Sam Altman, numa entrevista em junho de 2023:
“Eu penso que o mundo ficará muito mais rico, teremos um boom de produtividade e encontraremos muitas coisas novas para fazer. […] Podemos curar todas as doenças, oferecer a todos uma ótima educação, melhorar os cuidados de saúde, aumentar massivamente a produtividade, realizar grandes descobertas científicas, todas essas coisas maravilhosas — e queremos garantir que as pessoas recebam esse benefício, e que esse benefício seja distribuído de forma justa” [159].
Mas a realidade está longe de ser equitativa. Para Altman, assim como para outros líderes da IA e das grandes tecnológicas, “produtividade” é um eufemismo para o relacionamento económico mutuamente benéfico entre as empresas e os seus acionistas — não entre as empresas e os seus trabalhadores, não entre as empresas e a população em geral. Os trabalhadores não apenas não só não beneficiam dos ganhos de produtividade da IA, como, para muitos, as suas condições só pioram.
Em vez de estender os ganhos aos trabalhadores, a IA está a desvalorizar o seu trabalho e a tornar a vida mais monótona e cada vez mais vigiada.
Estas promessas não são novas: a ideia de que a IA levará a uma maior produtividade dos trabalhadores impulsionou a adoção de técnicas de gestão algorítmica e de ferramentas [160] de “produtividade do trabalhador” utilizadas em diversos setores que assentam em intensa vigilância dos trabalhadores [161] — chegando até aos micro movimentos de alguns músculos dos trabalhadores — para definir ritmos e moldar as condições de trabalho através da IA [162]. Por exemplo, a Amazon monitoriza os trabalhadores de armazéns minuto a minuto usando IA e pode demitir funcionários se acumularem trinta minutos de “tempo fora da tarefa” em três dias distintos ao longo de um ano [163]. Esse “tempo fora da tarefa” inclui usar a casa de banho, ajudar um colega a mover um pacote pesado ou fazer uma pausa para se refrescar ou se aquecer, mesmo quando as temperaturas no armazém são extremas [164]. Em vez de dar resposta às pretensões dos trabalhadores por melhores condições de trabalho, a Amazon anunciou planos de introduzir “câmaras de bem-estar” nos armazéns, onde os funcionários poderiam assistir a vídeos de relaxamento [165].
Esta monitorização implacável levou a taxas mais altas de acidentes de trabalho. No final de 2024, uma investigação do Senado constatou que as quotas de produtividade impulsionadas por algoritmos da Amazon resultam em taxas de acidentes significativamente superiores à média do setor e às de armazéns que não pertencem à Amazon [166]. De facto, o relatório concluiu que os trabalhadores da Amazon tinham quase o dobro de probabilidades de se ferir e que a empresa manipulava os seus dados de segurança no trabalho para parecer mais segura do que realmente era [167].
Além disso, as metas de desempenho determinadas por algoritmos nunca diminuem; em vez disso, o trabalho torna-se uma espécie de “jogo”, no qual a próxima recompensa está sempre fora de alcance — e sempre em benefício da empresa. Os trabalhadores de armazéns da Amazon relatam uma dinâmica cíclica em que a taxa que se lhes é imposta se torna insustentável e eles acabam por ser demitidos, apenas para serem recontratados na base da hierarquia novamente, com os salários reajustados para baixo. O tratamento dispensado pela Amazon aos seus trabalhadores reflete o futuro adotado pelas empresas de tecnologia movidas por IA, em que as tecnologias de automatização são integradas em toda a cadeia de fornecimento de trabalho, com pouca consideração pelos efeitos humanos da automação.
Isto é intencional, de modo que as empresas possam transformar o trabalho num produto que pode ser automatizado e vendido com lucro, tratando a capacidade dos trabalhadores como descartável. É por isso que, independentemente da eficácia real da tecnologia de IA, os receios sobre a substituição de empregos por IA são justificáveis: as empresas utilizam a lógica dos “ganhos de produtividade” da IA para justificar a fragmentação, a automatização e, em alguns casos, a eliminação do trabalho. Por exemplo, no final de 2024, a empresa de tecnologia financeira Klarna gabou-se de ter utilizado a IA para gerar economia de custos na empresa, cortando nas suas equipas de vendas e marketing e migrando para engenharia baseada em IA e na substituição das suas equipas de atendimento ao cliente por um robô de conversação de atendimento da OpenAI que poderia “realizar o trabalho de 700 pessoas” [168]. Até 2025, a empresa tinha reduzido o seu quadro de funcionários em 38%. A aposta da Klarna na IA é presumivelmente motivada pelos seus planos de abertura de capital em Bolsa (IPO) e pela esperança de que a economia de custos atraia potenciais acionistas e impulsione um preço de abertura mais alto.
A lógica de que a produtividade empresarial levará, por si só, à prosperidade compartilhada é profundamente errada [169]. Em eras passadas, quando a automatização gerava ganhos de produtividade e aumentos salariais, isso não acontecia por causa das capacidades inerentes da tecnologia, mas sim porque as políticas empresariais e regulatórias eram planeadas em conjunto para apoiar os trabalhadores e conter o poder das empresas [170]. O boom da automatização de máquinas-ferramentas durante a Segunda Guerra Mundial é instrutivo: apesar do receio de perda de empregos, as políticas federais e um movimento operário fortalecido protegeram os interesses dos trabalhadores e exigiram salários mais altos para aqueles que operavam com as novas máquinas [171]. As empresas, por sua vez, instituíram políticas para reter trabalhadores — como redistribuição de lucros e oferta de formação — com o objetivo de reduzir conflitos e evitar greves. Como resultado, apesar do crescimento da automatização nesse período, a parcela dos trabalhadores no rendimento nacional manteve-se estável, os salários médios aumentaram e a procura por trabalhadores cresceu [172]. Esses ganhos foram revertidos sob as políticas da era Reagan, que priorizaram os interesses dos acionistas, utilizaram ameaças comerciais para reduzir a qualidade dos padrões de trabalho e de regulação [173]. assim como para enfraqueceram as políticas em defesa dos trabalhadores e sindicais, permitindo que as empresas de tecnologia aumentassem o seu domínio de mercado e controle sobre recursos-chave [174]. A indústria de IA é um produto decisivo desta história.
A introdução da discriminação salarial algorítmica reflete tanto a fragmentação do trabalho quanto o capitalismo de vigilância: as empresas pagam a trabalhadores individuais salários diferentes pelo mesmo trabalho com base no processamento algorítmico de inúmeros pontos de dados, incluindo procura, localização ou comportamento do trabalhador [175]. A falta de transparência sobre como os salários são calculados leva à precariedade salarial, já que os trabalhadores não conseguem prever de forma confiável quanto irão ganhar num determinado dia pelo mesmo trabalho. A definição salarial algorítmica só vai numa direção para os trabalhadores: para baixo. Empresas de transporte por aplicativo, por exemplo, podem coagir os motoristas a aceitar salários baixos, ameaçando enviá-los para o fim de longas filas ou desativar as suas contas.
Não são apenas os motoristas de transporte por aplicativo que são afetados: um estudo recente do Roosevelt Institute, realizado por Katie J. Wells e Funda Ustek Spilda, sobre serviços de enfermagem sob procura mostrou que enfermeiros nessas plataformas são obrigados a competir entre si por turnos, criando um ‘nivelamento por baixo’ em termos de salários [176]. Além disso, das onze maiores empresas da economia de plataforma analisadas no relatório da Fairwork sobre gestão algorítmica, apenas uma garantiu que os trabalhadores na sua plataforma recebem o salário mínimo federal [177].
Além da exploração salarial, essas empresas da economia de plataformas estão a minar a responsabilidade das empresas à custa da estabilidade e do bem-estar dos trabalhadores [178]. O Fairwork mapeia essas táticas — que incluem a substituição de funções de gestão tradicionalmente ocupadas por humanos por robôs de conversação; colocar trabalhadores em ambientes sensíveis, como lares de idosos, sem qualquer supervisão no local; deixar de fornecer qualquer número de telefone ou de informação de contacto aos quais os trabalhadores possam recorrer em caso de emergência — e cessações de contrato arbitrárias, que cortam os trabalhadores não apenas do seu sustento, mas também de todas as informações sobre os seus clientes, locais de trabalho e histórico de trabalho, sem qualquer via significativa de reparação.
Embora muitas plataformas tenham contratos estipulando que os contratos dos trabalhadores podem ser cessados por qualquer motivo, as maiores economias de plataforma foram além disso: a Instacart, um serviço sob pedido de entrega de compras de supermercado, juntou-se a um processo contra uma lei de Seattle que exige que as empresas deem um aviso prévio de quatorze dias aos trabalhadores pela cessação de contrato, com base em políticas razoáveis — minando assim as proteções de trabalho dos seus próprios trabalhadores e de outros trabalhadores da economia de plataformas no processo [179]. Os contratos também limitam a capacidade dos trabalhadores de apresentarem ações judiciais contra as plataformas, com o uso generalizado de cláusulas de isenção de responsabilidade, renúncias a ações coletivas e cláusulas de arbitragem.
Estas medidas são uma característica, não uma falha, dos modelos de negócios da economia de plataforma. Como escreve Edward Ongweso Jr:
“Durante anos, as empresas de trabalho precário, dita economia gig, têm defendido a arbitragem obrigatória porque ela é extremamente eficaz em bloquear ações coletivas e precedentes legais — afinal, se o seu modelo de negócios depende de contornar a lei, da arbitragem regulatória e de um lóbi agressivo, então as empresas precisam de impedir que trabalhadores revoltados em condições deploráveis exijam coletivamente o direito de receber um salário digno, de estarem seguros no exercício de seu trabalho, de terem acesso a seguro de saúde ou a outros elementos que caracterizam um trabalho digno” [180].
|
Agentes da Inteligência Artificial A promessa de que agentes de IA irão automatizar tarefas rotineiras tornou-se um ponto central no desenvolvimento de produtos: num texto recente no seu blog, o fundador da OpenAI, Sam Altman, disse acreditar que em 2025 os primeiros agentes de IA irão “entrar na força de trabalho”, atuando de forma autónoma em tarefas que substituem atividades humanas [181]. A OpenAI também lançou o Operator, um agente que, segundo a empresa, pode ser encarregado de preencher formulários, fazer pedidos de supermercado e executar outras tarefas baseadas no browser [182] (embora até agora tenha sido em grande parte mal sucedido) [183], além do Deep Research, “que realiza revisões de literatura utilizando informações baseadas na web [184]; o Google também lançou uma ferramenta chamada Deep Research que executa tarefas semelhantes [185], e a Palantir está a testar um estúdio que permite aos seus clientes construir os seus próprios agentes sobre a sua plataforma Ontology” [186]. Mas a IA “agêntica” introduz níveis multiplicadores de risco. Todos os defeitos dos LLMs são mantidos nesses sistemas, mas eles estão posicionados para agir de forma mais autónoma, com maior complexidade e de maneiras que tornam a supervisão humana ainda mais fácil [187]. Como a presidente da Signal, Meredith Whittaker, destacou, os agentes de IA apresentam riscos particulares para a privacidade dos utilizadores, pois exigem acesso total a informações privadas para que possam agir de forma autónoma. “Há uma questão profunda de segurança e privacidade que assombra essa enorme expectativa em torno dos agentes, e que, em última instância, ameaça romper a barreira hematoencefálica entre a camada de aplicação e a camada do sistema operacional, ao unir todos esses serviços distintos [e] baralhando os seus dados”, disse ela [188]. Para que estes sistemas “funcionem”, as organizações terão de mudar de maneiras bastante fundamentais: para começar, agentes de IA exigem conjuntos de dados altamente estruturados para operar [189]. Isso significa que empresas que utilizam esses agentes terão que “datificar” as suas práticas, transformando as suas atividades em objetos de dados discretos sobre os quais os sistemas de IA possam ser treinados. Para isso, as organizações precisarão de se tornar mais burocráticas e mais vigilantes — o oposto das promessas de maior autonomia normalmente associadas à indústria de tecnologia.
|
Notas
- Satyan Gajwaniin, “AI Effect: We’ll Get Way Wealthier and Witness a Productivity Boom, Says Sam Altman,” Economic Times, June 9, 2023, https://economictimes.indiatimes.com/tech/technology/ai-effect-well-get-way-wealthier-and-witness-a-productivity-boom-says-sam-altman/articleshow/100857881.cms. Back
- Jodi Kantor and Arya Sundaram, “The Rise of the Worker Productivity Score,” New York Times, August 14, 2022, https://www.nytimes.com/interactive/2022/08/14/business/worker-productivity-tracking.html. Back
- Wilneida Negrón, Little Tech Is Coming for Workers, Coworker.org, 2021, https://home.coworker.org/wp-content/uploads/2021/11/Little-Tech-Is-Coming-for-Workers.pdf. Back
- Edward Ongweso Jr., “Amazon’s New Algorithm Will Set Workers’ Schedules According to Muscle Use,” Vice, April 15, 2021, https://www.vice.com/en/article/amazons-new-algorithm-will-set-workers-schedules-according-to-muscle-use. Back
- Lauren Kaori Gurley, “Internal Documents Show Amazon’s Dystopian System for Tracking Workers Every Minute of Their Shifts,” Vice, June 2, 2022, https://www.vice.com/en/article/internal-documents-show-amazons-dystopian-system-for-tracking-workers-every-minute-of-their-shifts. Back
- Warehouse Worker Resource Center, “Extreme Heat at Amazon Air,” September 2022, https://warehouseworkers.org/wwrc_resources/extreme-heat-at-amazon-air. Back
- “Amazon Offers ‘Wellness Chamber’ for Stressed Staff,” BBC, May 28, 2021, https://www.bbc.com/news/technology-57287151. Back
- U.S. Congress, Senate, Committee on Health, Education, Labor, and Pensions, “The ‘Injury-Productivity Trade-off’: How Amazon’s Obsession with Speed Creates Uniquely Dangerous Warehouses,” 118th Cong., 2d. sess., 2024. https://www.help.senate.gov/imo/media/doc/amazon_investigation.pdf. Back
- Juliana Kim, “Amazon Manipulated Injury Data to Make Warehouses Appear Safer, a Senate Probe Finds,” NPR, December 16, 2024, https://www.npr.org/2024/12/16/nx-s1-5230240/amazon-injury-warehouse-senate-investigation. Back
- Theo Wayt, “Klarna’s AI Savings” The Information, November 25, 2024, https://www.theinformation.com/articles/klarnas-ai-savings. Back
- Daron Acemoglu and Simon Johnson, Power and Progress: Our Thousand-Year Struggle Over Technology & Prosperity (PublicAffairs, 2023). Back
- Acemoglu and Johnson, Power and Progress, 9–38. Back
- John F. Kennedy Presidential Library and Museum, News Conference 24, February 14, 1962, https://www.jfklibrary.org/archives/other-resources/john-f-kennedy-press-conferences/news-conference-24; “Kennedy Began War on Poverty; Area Redevelopment First of His Weapons 3 Years Ago,” New York Times, January 10, 1964, https://www.nytimes.com/1964/01/10/archives/kennedy-began-war-on-poverty-area-redevelopment-first-of-his.html. Back
- Acemoglu and Johnson, Power and Progress, 242, 247. É importante assinalar que as mulheres, os trabalhadores de cor e os imigrantes não viram ganhos semelhantes devido às forças insidiosas do patriarcado, do racismo e da xenofobia. Ver Acemoglu and Johnson, Power and Progress, 251. Back
- Amba Kak and Sarah Myers West, “International ‘Digital Trade’ Agreements: The Next Frontier,” in 2023 Landscape: Confronting Tech Power, AI Now Institute, https://ainowinstitute.org/publications/international-digital-trade-agreements. Back
- Susannah Glickman, “AI and Tech Industrial Policy: From Post-Cold War Post-Industrialism to Post-Neoliberal Re-Industrialization,”in AI Nationalism(s): Global Industrial Policy Approaches to AI, AI Now Institute, March 12, 2024, https://ainowinstitute.org/publications/ai-and-tech-industrial-policy-from-post-cold-war-post-industrialism-to-post-neoliberal-re-industrialization. Back
- Veena Dubal, “On Algorithmic Wage Discrimination,” Columbia Law Review124, no. 7 (2023), https://doi.org/10.2139/ssrn.4331080. Back
- Katie J. Wells and Funda Ustek Spilda, Uber for Nursing: How an AI-Powered Gig Model Is Threatening Health Care, Roosevelt Institute, December 2024, https://rooseveltinstitute.org/wp-content/uploads/2024/12/RI_Uber-for-Nursing_Brief_202412.pdf. Back
- Katie J. Wells et al., Fairwork US Ratings 2025: When AI Eats the Manager,Fairwork, 2025, 6. Back
- Wells et al., When AI Eats the Manager.Back
- Wells et al., When AI Eats the Manager, 18. Back
- Edward Ongweso Jr., “Uber’s Bastards II,” The Tech Bubble (blog), March 27, 2025, https://thetechbubble.substack.com/p/ubers-bastards-ii. Back
- Sam Altman, “Reflections,” January 5, 2025, https://blog.samaltman.com/reflections. Back
- OpenAI, “Introducing Operator,” January 23, 2025, https://openai.com/index/introducing-operator. Back
- Casey Newton, “OpenAI Launches its Agent,” Platformer, January 23, 2025, https://www.platformer.news/openai-operator-ai-agent-hands-on. Back
- Robert Krzaczyński, “OpenAI Launches Deep Research: Advancing AI-Assisted Investigation,” InfoQ, February 6, 2025, https://www.infoq.com/news/2025/02/deep-research-openai. Back
- Dave Citron, “Try Deep Research and Our New Experimental Model in Gemini, Your AI Assistant,” Google, December 11, 2024, https://blog.google/products/gemini/google-gemini-deep-research. Back
- Palantir, “AIP Agent Studio [Beta],” accessed April 25, 2025, https://www.palantir.com/docs/foundry/agent-studio/overview. Back
- Margaret Mitchell et al., “Why Handing Over Total Control to AI Agents Would Be a Huge Mistake,” Technology Review, March 24, 2025, https://www.technologyreview.com/2025/03/24/1113647/why-handing-over-total-control-to-ai-agents-would-be-a-huge-mistake. Back
- Sara Perez, “Signal President Mereith Whittaker Calls Out Agentic AI as Having ‘Profound’ Security and Privacy Issues,” TechCrunch, March 7, 2025, https://techcrunch.com/2025/03/07/signal-president-meredith-whittaker-calls-out-agentic-ai-as-having-profound-security-and-privacy-issues. Back
- Ben Thompson, “Enterprise Philosophy and the First Wave of AI,” Stratechery, September 24, 2024, https://stratechery.com/2024/enterprise-philosophy-and-the-first-wave-of-ai. Back
As autoras:
Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.
Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.
Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.




É VERDADE QUE O ESTADO DE PORTUGAL 🇵🇹 APOIA O QUE ESTÁ A ACONTECER?
Há aloprados entrando pelo jardim. Os aloprados se aproximam de nossa casa.
Quando há aloprados na casa do vizinho, no jardim, grande chance de tentarem entrar em nossa casa!
Que merda virou esta dita humanidade cúmplice, conivente, complacente, condescendente.
Muito bom dia, por enquanto.
https://gustavohorta.wordpress.com/2026/01/08/eua-estado-terrorista/